Трябва ли да започнем да приемаме благосъстоянието на A.I. Сериозно?
Една от най-дълбоко държаните ми полезности като софтуерен колонист е хуманизмът. Вярвам в хората и мисля, че технологията би трябвало да оказва помощ на хората, а не да ги обезсърчава или заменя. Грижа се за привеждане в сходство на изкуствения разсъдък - т.е., като се уверя, че A.I. Системите работят в сходство с човешките ценности-защото считам, че нашите полезности са радикално положителни или най-малко по-добри от стойностите, които един робот може да измисли.
Така че, когато чух, че откривателите в антропика, A.I. Компания, която направи Claude Chatbot, започваше да учи „ благоденствие на модела “ - концепцията, че A.I. Моделите скоро могат да станат съзнателни и да заслужат някакъв честен статус - хуманистът в мен мислеше: Кой се интересува от чатботите? Не би трябвало ли да се тормозим от A.I. Направете ни, не ни малтретираме?
Трудно е да се спори, че днешният A.I. Системите са в схващане. Разбира се, огромни езикови модели са подготвени да приказват като хора, а някои от тях са извънредно впечатляващи. Но може ли Chatgpt да изпита наслада или страдалчество? Дали Близнаците заслужават правата на индивида? Много A.I. Експерти, които знам, биха споделили не, към момента не, даже не са затворени.
само че бях заинтересован. В последна сметка повече хора стартират да се отнасят с A.I. Системи, като че ли са в схващане - се влюбват в тях, употребявайки ги като терапевти и приканват препоръките си. Най -умният A.I. Системите надминават хората в някои домейни. Има ли предел, при който A.I. би почнал да заслужава, в случай че не и права на човешко равнище, най-малко същото морално основание, което даваме на животните?
уволнен през 2022 година, откакто твърди, че чатботът на Lamda на компанията е станал умишлен.)
, само че това може да стартира да се трансформира. Има дребен набор от университетски проучвания на A.I. благоденствие на модела и непретенциозен, само че възходящ брой специалисти в области като философия и невронаука подхващат вероятността на A.I. Съзнанието по -сериозно, както A.I. Системите стават по -интелигентни. Наскоро Tech Podcaster Dwarkesh Patel съпоставя A.I. благоденствие на хуманното отношение към животните, казвайки, че е вярвал, че е значимо да се увери, че „ цифровият еквивалент на фабричното земеделие “ не се случва с бъдещия A.I. Същества.
Техническите компании също стартират да приказват за това повече. Наскоро Гугъл разгласява лист за работа за „ Post-a.g.i. “ Учен за проучване, чиито области на фокус ще включват „ машинно схващане “. И предходната година Anthropic нае първия си A.I. Изследовател на благосъстоянието, Kyle Fish.
Интервюирах господин Фиш в офиса на Антропик в Сан Франциско предходната седмица. Той е другарски веган, който сходно на редица антропични чиновници има връзки с ефикасния алтруизъм, интелектуално придвижване с корени в софтуерната сцена на Bay Area, което е фокусирано върху A.I. Безопасност, хуманно отношение към животните и други етични проблеми.
MR. Рибите ми споделиха, че работата му в антроп се концентрира върху два съществени въпроса: първо, допустимо ли е Клод или други A.I. Системите ще станат съзнателни в близко бъдеще? И второ, в случай че това се случи, какво би трябвало да направи антропиката?
Сам Алтман споделя, в никакъв случай не знаеш.)
Но към този момент ще запазя най-дълбоката си угриженост за житейските форми въз основата на въглерод. В идващия A.I. Буря, това е нашето благоденствие, за което най -много се тормозя.